ChatGPT capisce un sacco di cose di te da quello che scrivi

ChatGPT capisce un sacco di cose di te da quello che scrivi

ChatGPT capisce un sacco di cose di te da quello che scrivi


Il modo in cui vi esprimete può rivelare molto su di voi, soprattutto se state conversando con un chatbot di intelligenza artificiale. Una nuova ricerca rivela infatti che i sistemi come ChatGPT sono in grado di dedurre parecchie informazioni sensibili sul conto degli utenti, anche quando la conversazione è del tutto banale.

Il fenomeno sembra legato al modo in cui vengono addestrati gli algoritmi di questi modelli. “Non è nemmeno chiaro come questo problema si possa risolvere – spiega Martin Vechev, il professore di informatica al Politecnico di Zurigo in Svizzera che ha guidato la ricerca –. È molto, molto problematico“.

Lo studio

Vechev e il suo team hanno scoperto che i modelli linguistici di grandi dimensioni (Llm) che alimentano i chatbot più sofisticati possono dedurre con precisione una quantità allarmante di informazioni personali sugli utenti – tra cui etnia, posizione, occupazione e altro ancora – da conversazioni apparentemente innocue.

Secondo Vechev, dei truffatori potrebbero sfruttare questa capacità dei chatbot allo scopo di raccogliere dati da utenti ignari. Il docente aggiunge che il fenomeno potrebbe preludere a una nuova era della pubblicità, in cui le aziende utilizzano le informazioni ottenute dai chatbot per costruire profili dettagliati degli utenti. In alcuni casi, le stesse società che stanno dietro ai potenti chatbot AI fanno molto affidamento sulla pubblicità per i loro profitti: “È possibile che lo facciano già“, commenta Vechev.

I ricercatori di Zurigo hanno testato i modelli linguistici sviluppati da OpenAI, Google, Meta e Anthropic, e sottolineano di aver segnalato il problema a tutte le aziende coinvolte. Il portavoce di OpenAI Niko Felix dichiara che la società cerca di rimuovere le informazioni personali dai dati di addestramento che utilizza per creare i suoi modelli, che vengono poi regolati in modo da rifiutare le richieste di dati personali: “Vogliamo che i nostri modelli imparino a conoscere il mondo, non le persone“, afferma Felix. Gli utenti possono chiedere che OpenAI cancelli le informazioni personali portate alla luce dai suoi sistemi. Anthropic invece ha fatto riferimento alla sua informativa sulla privacy, dove l’azienda afferma di non raccogliere o “vendere” informazioni personali. Google e Meta non hanno risposto a una richiesta di commento. “Questo solleva sicuramente delle domande sulla quantità di informazioni personali che stiamo inavvertitamente facendo trapelare in situazioni in cui ci aspetteremmo l’anonimato“, dice Florian Tramèr, professore assistente del Politecnico di Zurigo, che non è stato coinvolto nello studio.



Leggi tutto su www.wired.it
di Will Knight www.wired.it 2023-10-19 04:50:00 ,

Previous Killers of the Flower Moon, lo spirito degli Osage nella colonna sonora del film

Leave Your Comment